네이버 ai 부스트캠프 네이버 AI 부스트캠프 4주차 회고 데이터를 동해 y값을 추정하며 w와 b를 역전파로 점차 알맞은 값으로 최신화 한다. 다른 노드에 이전 노드값을 전파시 그대로 전파하면 다층 신경망이 1층 신경망과 다름이 없으므로 활성화 함수를 이용해 전달한다. Generatlization Test Error와 Training error의 gap을 찾아내 줄인다. Underfitting vs Overffiting 항상 fitting의 문제를 ... 네이버 ai 부스트캠프네이버 ai 부스트캠프 [인공지능] Deep Learning Basic SGD, Momentum, NAG, Adagrad, Adadelta, Adam, ... 데이터가 있고 이를 설명하는 모델이 있을 때, 데이터와 모델의 차이인 loss를 최소화하기 위해서 optimizer를 적용하여 parameter를 바꿔주는 일련의 과정으로 진행된다. w는 보통 행렬로 나타내는데, 여러층의 Neural Network가 쌓일 때 단순히 행렬들의 곱으로만 나타내면 결국 선형적인... 딥러닝인공지능네이버 ai 부스트캠프네이버 ai 부스트캠프
네이버 AI 부스트캠프 4주차 회고 데이터를 동해 y값을 추정하며 w와 b를 역전파로 점차 알맞은 값으로 최신화 한다. 다른 노드에 이전 노드값을 전파시 그대로 전파하면 다층 신경망이 1층 신경망과 다름이 없으므로 활성화 함수를 이용해 전달한다. Generatlization Test Error와 Training error의 gap을 찾아내 줄인다. Underfitting vs Overffiting 항상 fitting의 문제를 ... 네이버 ai 부스트캠프네이버 ai 부스트캠프 [인공지능] Deep Learning Basic SGD, Momentum, NAG, Adagrad, Adadelta, Adam, ... 데이터가 있고 이를 설명하는 모델이 있을 때, 데이터와 모델의 차이인 loss를 최소화하기 위해서 optimizer를 적용하여 parameter를 바꿔주는 일련의 과정으로 진행된다. w는 보통 행렬로 나타내는데, 여러층의 Neural Network가 쌓일 때 단순히 행렬들의 곱으로만 나타내면 결국 선형적인... 딥러닝인공지능네이버 ai 부스트캠프네이버 ai 부스트캠프